OpenAI дразни „Sora“, своя нов AI модел за текст към видео
Искате ли да видите костенурка, караща колело през океана? Сега генеративният изкуствен интелект може да анимира тази сцена за секунди.
OpenAI в четвъртък показа новия си модел за текст към видео Sora, който може да генерира видеоклипове с дължина до една минута въз основа на каквато и да е подкана потребителят вкарва в текстово поле. Въпреки че към момента не е налично за обществеността, известието на компанията за изкуствен интелект провокира бурни реакции онлайн.
Ентусиастите по изкуствен интелект бързо обмислиха хрумвания за капацитета на тази най-нова технология, даже когато други повдигнаха непосредствена угриженост за това по какъв начин неговата досегаемост може да подкопае човешките работни места и да способства за разпространяването на цифрова дезинформация.
Главният изпълнителен шеф на OpenAI Сам Алтман изиска бързи хрумвания за X и генерира поредност от видеоклипове, в това число гореспоменатите водни велосипедисти като както и видеоклип за готвене и няколко кучета, излъчващи подкастинг в планината.
" Скоро няма да създадем този модел необятно наличен в нашите артикули ", написа представител на OpenAI в имейл, добавяйки, че компанията споделя напредъка си в проучванията в този момент, с цел да получи ранна противоположна връзка от други в общността на AI.
Компанията, със своя известен чатбот ChatGPT и генератор на текст към изображение DALL-E, е един от няколкото софтуерни започващи компании, водещи генеративната AI гражданска война, почнала през 2022 година В обява в блог написа, че Sora може да генерира с акуратност голям брой знаци и разнообразни видове придвижване.
„ Ние учим AI да схваща и симулира физическия свят в придвижване, за образование на модели, които оказват помощ на хората да вземат решение проблеми, които изискват взаимоотношение в действителния свят “, написа OpenAI в обявата.
Но Сора може да се затрудни да улови физиката или пространствените елементи на по-сложна сцена, което може да я накара да генерира нещо нелогично (като човек, тичащ в неверната посока на бягаща пътека), да преобразува обект по неестествени способи или даже да го аргументи да изчезнат от нищото, сподели компанията в обявата си в блога.
Все отново доста от демонстрациите, споделени от OpenAI, демонстрираха хиперреалистични образни елементи, които биха могли да затруднят инцидентните интернет консуматори за разграничение на видео, генерирано от AI, от фрагменти от действителния живот. Примерите включват фотография с дрон на талази, разбиващи се в скалистото крайбрежие на Биг Сур под блясъка на залязващото слънце и клип на жена, която се разхожда по оживена улица в Токио, към момента влажна от дъжда.
As надълбоко подправените медии на звезди, политици и частни персони стават все по-разпространени онлайн, етичните и безвредни последствия от един свят, в който всеки може да основава висококачествено видео на всичко, което може да си показа - изключително по време на година на президентски избори и на фона на напрегнати световни спорове с благоприятни условия за дезинформация — са обезсърчителни.
Федералната комерсиална комисия в четвъртък предложи правила, ориентирани към възбрана на основаването на AI усещания на действителни хора посредством разширение на отбраната, която слага върху представянето на държавно управление и бизнес.
„ Агенцията подхваща това деяние в светлината на възходящите жалби във връзка с измами с показване под непозната идентичност, както и публично неодобрение по отношение на вредите, породени на потребителите и на подставени лица “, написа FTC в известие за вести. „ Нововъзникващите технологии – в това число генерираните от AI deepfakes – заплашват да засилят този камшик и FTC се ангажира да употребява всички свои принадлежности за разкриване, въздържане и прекъсване на измами с показване под непозната идентичност. “
OpenAI сподели, че работи за построяването на принадлежности, които могат да открият по кое време видеоклипът е генериран от Sora, и възнамерява да вгради метаданни, които биха маркирали произхода на видеоклипа, в такова наличие, в случай че моделът бъде възложен за публично прилагане в бъдеще.
Компанията също по този начин сподели, че си сътрудничи с специалисти, с цел да тества Sora за способността й да предизвиква щета посредством дезинформация, насаждащо ненавист наличие и пристрастия.
Говорител на OpenAI сподели пред NBC News, че по-късно ще разгласява систематична карта, описваща оценките за сигурност, както и рисковете и рестриктивните мерки на модела.
„ Въпреки задълбочените проучвания и проби, ние не можем да предвидим всички потребни способи, по които хората ще употребяват нашата технология, нито всички способи, по които хората ще злоупотребяват с нея “, сподели OpenAI в своя блог обява. „ Ето за какво имаме вяра, че ученето от потреблението в действителния свят е сериозен съставен елемент за основаването и стартирането на все по-безопасни AI системи с течение на времето. “
Анджела Янг